接受严重失衡的数据培训时,深层神经网络通常很难准确地识别几个样本的课程。先前在长尾认可的研究试图使用已知样本分布来重新平衡学习,主要解决了同类水平上不同的分类困难。但是,这些方法通常会忽略每个类内的实例难度变化。在本文中,我们提出了一个困难的平衡利润率(DBM)损失,这既考虑阶级失衡和实例难度。dbm损失包括两个组成部分:一个范围的边缘,以减轻由不平衡的类频率引起的学习偏见,以及根据其自发的难度分配给硬阳性样本的实例余量。dbm损失通过将较大的边缘分配给更困难的样本来提高类别的判别性。我们的方法与现有方法无缝结合,并始终提高各种长尾识别基准的性能。
主要关键词